알려진 바
Qwen3-Embedding 시리즈는 Alibaba Qwen 팀이 2025년 6월 공개한 텍스트 임베딩·재랭킹 모델군이다. 0.6B / 4B / 8B 세 가지 크기가 있으며, 여기서는 가장 작은 0.6B 버전의 성능을 정리한다.
기본 사양
| 항목 | 값 |
|---|---|
| 파라미터 | 약 6억 (0.6B), 트랜스포머 28 레이어 |
| 컨텍스트 길이 | 32K 토큰 |
| 임베딩 차원 | 최대 1024 (32~1024 사이 사용자 지정 가능, MRL) |
| 지원 언어 | 100개 이상 (자연어 + 프로그래밍 언어) |
| Instruction 인식 | 지원 (작업 맞춤 instruction 입력 가능) |
벤치마크 성능
MTEB 다국어 (MMTEB)
| 모델 | 크기 | 평균 점수 |
|---|---|---|
| Qwen3-Embedding-0.6B | 0.6B | 64.33 |
| multilingual-e5-large-instruct | 0.6B | 63.22 |
| Cohere embed-multilingual-v3.0 | - | 61.12 |
| Gemini Embedding | - | 68.37 |
| Qwen3-Embedding-4B | 4B | 69.45 |
| Qwen3-Embedding-8B (리더보드 1위, 2025-06) | 8B | 70.58 |
0.6B는 비슷한 크기의 대표 오픈소스 모델(multilingual-e5-large-instruct)을 근소하게 앞서고, Cohere의 상용 다국어 임베딩도 상회한다.
OpenAI (text-embedding-3) 와의 비교
| 항목 | Qwen3-Embedding-0.6B | text-embedding-3-small | text-embedding-3-large |
|---|---|---|---|
| MTEB (영어) | 70.70 (v2) | 62.3 | 64.6 |
| 다국어 벤치 (MTEB/MIRACL) | 64.33 (MMTEB) | 44.0 (MIRACL) | 54.9 (MIRACL) |
| 최대 컨텍스트 | 32K | 8K | 8K |
| 임베딩 차원 | 32~1024 (MRL) | 512 / 1536 | 256 / 1024 / 3072 |
| 가격 | 무료 (로컬) | $0.02 / 1M 토큰 | $0.13 / 1M 토큰 |
| 공개 여부 | 오픈 웨이트 (Apache 2.0) | 폐쇄 API | 폐쇄 API |
주의: OpenAI의 공식 점수는 구버전 MTEB/MIRACL 기준이며, Qwen3 숫자는 MMTEB v2 기준이라 축이 완전히 동일하진 않다. 다만 영어 검색·다국어 양쪽 모두에서 0.6B 오픈 모델이
text-embedding-3-large를 상회한다는 점은 여러 독립 리더보드에서 재현된다.